Cuando
OpenAI lanzó ChatGPT en el otoño de 2022, la IA generativa se hizo global,
ganando un millón de usuarios en días y 100 millones en meses. A
medida que el mundo comenzó a lidiar con la importancia de la IA, los
responsables políticos preguntaron: La inteligencia artificial cambiará el
mundo o la destruirá? AI democratizaría el acceso a la información, o se
utilizaría para difundir rápidamente la desinformación? Cuando sea utilizado
por los militares, podría ser utilizado para desovar robots asesinos que hacen
que las guerras sean más fáciles de librar?
Technólogos
y burócratas lucharon para encontrar maneras de entender y pronosticar el
impacto generativo de IA. Qué otros logros tecnológicos revolucionarios
combinaron la esperanza del avance humano con los peligros persistentes de la
destrucción masiva de la sociedad? El análogo obvio eran las armas nucleares.
En cuestión de meses, algunos de los principales científicos en aprendizaje
automático firmaron una carta que
afirmaba que el riesgo de extinción de la IA debería ser una prioridad global
junto con otros riesgos a escala de la sociedad, como las pandemias y la guerra
nuclear. Elon Musk fue más allá, afirmando que la IA
representa un riesgo significativamente mayor que las armas nucleares. El
secretario general de Naciones Unidas, António Guterres, propuso crear un
equivalente al Organismo Internacional de Energía Atómica para promover el uso
seguro de la tecnología de IA, mientras que el consejero delegado de OpenAI,
Sam Altman, ha sugerido una
Comisión Reguladora Nuclear para AI, similar a la agencia que regula el
funcionamiento de las centrales nucleares en Estados Unidos.
Si bien la
analogía nuclear ofrece algunas lecciones para mitigar los riesgos de los
sistemas de inteligencia artificial, las diferencias entre las dos tecnologías
son más significativas que las similitudes. A diferencia de las armas
nucleares, el desarrollo de la IA es difuso, abarcando decenas de empresas y
países, lo que hace mucho más difícil reducir su propagación.
Para hacer
frente a los desafíos únicos de los sistemas avanzados de IA generalizados, los
encargados de formular políticas pueden comenzar estudiando los intentos de
elaborar controles en otros ámbitos con tecnologías emergentes o peligrosas,
como el ciberespacio, el espacio ultraterrestre y las armas biológicas. En
lugar de tratar de bloquear el desarrollo de IA, los responsables de la
formulación de políticas deberían centrarse principalmente en la elaboración de
normas para un comportamiento responsable. Podrían incluir medidas específicas
que podrían incluir a los principales agentes que se comprometen a limitar el
uso de la IA en las operaciones de influencia, exigir a las empresas que
realicen evaluaciones de riesgos y que los países sean responsables de las
actividades de sus entidades comerciales derivadas de los éxitos en otras
esferas, en las que los encargados de formular políticas lograron contener el
impacto de tecnologías peligrosas. Las naciones adversarias pueden compartir
tecnologías para mejorar la seguridad de la IA de maneras similares a cómo los
estadounidenses y los soviéticos compartieron experiencia que restringió el
acceso a las armas nucleares.
Más diferente que por igual. A pesar de todas las diferencias, existe una semejanza afortunada para
quienes esperan controlar las armas nucleares y la IA: El desarrollo de ambos
se basa en un proceso tecnológico definido. Las entradas físicas de finito son
necesarias para crear tanto una explosión nuclear como un modelo de lenguaje
grande. La creación de una reacción nuclear se basa en el enriquecimiento de
uranio a través de centrifugadoras, o el reprocesamiento del combustible
gastado para extraer plutonio. Del mismo modo, el entrenamiento y despliegue de
un modelo avanzado de IA requiere el uso de
chips avanzados de IA o unidades de procesamiento de gráficos (GPUs). Sin estos
insumos, no puede haber bombas nucleares de producto final o modelos de IA. Así
como pocos estados poseían los medios para enriquecer o reprocesar el
combustible nuclear a escala industrial, pocos actores tienen actualmente acceso
al cóute necesario para construir modelos de IA, con los Estados Unidos y China
controlando más de los
tercios del suministro mundial.
Pero aquí es
donde terminan las similitudes importantes. La marcada distinción entre
programas nucleares civiles y militares, que no tiene ningún análogo para la
IA, hace que los esfuerzos de no proliferación sean mucho más fáciles. Mientras
que la tecnología nuclear es de doble uso, las reacciones nucleares pueden
crear energía o explosiones, sigue habiendo líneas duras entre el uso pacífico
y el militar. Las instalaciones de energía nuclear pueden manejar con seguridad
combustible nuclear a través de reactores sin enriquecer uranio a plutonio a
grado de bomba o reprocesar, los dos procesos exclusivos de la fabricación de
bombas que no tienen ningún propósito pacífico. Es por ello que Estados Unidos
mantiene acuerdos de energía nuclear con casi 50 países que
pretenden prevenir la proliferación, donde sus homólogos reciben combustible
nuclear y lo atraviesan a través de reactores de agua ligera, pero acuerdan no
enriquecer ni utilizar reactores de agua pesada. En cambio, ninguna capacidad
estrecha o la de modo separa los sistemas de IA pacíficas y dañinas. El mismo
sistema que ayuda a los científicos a sintetizar nuevos compuestos de fármacos también podría ayudar a un terrorista a fabricar neurotoxinas, mientras que una plataforma que
ayuda a las empresas a escribir rápidamente correos electrónicos masivos podría
generar fácilmente desinformación para botnets.
Los humanos deberían enseñar a IA cómo
evitar la guerra nuclear, mientras que todavía pueden
Aunque se
pueden hacer esfuerzos para prevenir la difusión y transferencia de tecnología
nuclear a otros agentes, la naturaleza digital de los modelos de IA dificulta
cualquier restricción análoga. Ayudar a otro país a desarrollar un programa
nuclear indígena o transferir armas ya de fabricación no es tarea pequeña. El
gran movimiento de activos como reactores, combustible, centrifugadoras y
científicos a través de las fronteras es relativamente fácil de notar. La
dificultad se suma al número relativamente pequeño de estados nucleares, con
sus capacidades bajo el microscopio de agencias de inteligencia de todo el
mundo. La entrega de un arma nuclear requiere montarla en un misil o la entrega
a través de un avión, que los regímenes de control de las exportaciones, como
el límite del Régimen de Control de Tecnología de Misiles. En cambio, una vez
que se desarrolla y se libera abiertamente un modelo de IA, se puede hacer muy poco para evitar
su uso y proliferación generalizados. Las barrocones comunes que se colocan en
los sistemas de IA son fáciles y barasosas
de eliminar el modelo y proporcionarle datos peligrosos adicionales, lo que
significa que incluso las empresas que invierten fuertemente en seguridad y no
liberan abiertamente sus modelos pueden proporcionar pocas garantías a los
encargados de adoptar decisiones de seguridad nacional.
El aumento
de este problema es la relativa descentralización de la industria de la IA,
redilada no sólo por un púbculo de estados mayoritariamente ricos, sino en todo
el sector privado. Incluso si los gobiernos promulgan duras restricciones a la
IA, carecen de un monopolio sobre las fichas, el talento y los conocimientos
científicos necesarios para construir modelos avanzados de IA. En 2023, 51
modelos notables de aprendizaje automático fueron construidos por
empresas de todo el mundo, mientras que sólo dos fueron construidos por los
gobiernos. Con la inversión en IA en un máximo histórico, los incentivos para
encontrar lagunas en los controles gubernamentales nunca han sido mayores, como
lo demuestra la elusión reiterada
de Nvidia de los controles de exportación de semiconductores estadounidenses.
Clases de aprendizaje. Después de
inventar la capacidad de destruir a toda la humanidad, la comunidad global
logró impedir el uso y la propagación de las armas más mortales del mundo. Los
responsables políticos de hoy sólo pueden esperar tener una fracción del éxito
en controlar la IA como sus predecesores tenían en la era nuclear.
Como muestra
el siguiente gráfico, las armas nucleares y la IA tienen muchas similitudes:
ambos presentan riesgos catastróficos, son tecnologías de doble uso con usos
pacíficos y violentos, y surgieron en un contexto de gran competencia de poder.
SIMILARIDADES |
DIFERENCIAS |
Armas nucleares y AI |
Sólo AI |
... representan riesgos catastróficos. |
... es el propósito general. |
... son de doble uso. |
... no está muy regulado. |
... tiene gran ventaja. |
... tiene ventajas que no plateau. |
... condujo a carreras de armamentos. |
... está descentralizado. |
... puede causar destrucción mutua asegurada. |
... a menudo está abiertamente disponible. |
... ten aplicaciones militares. |
... todavía no ha causado muertes masivas. |
... represente riesgo de un error de cálculo. |
... está dirigida por el sector privado. |
... puede causar la revolución en la guerra. |
... se ve reforzado por la tecnología emergente. |
... son tecnologías en rápida evolución. |
... puede parecerse a la inteligencia humana. |
... puede ser adquirido por terceros. |
... se está viendo mucho más barato. |
Los
responsables políticos que tratan de aprovechar la analogía
nuclear de la IA deben proseguir el diálogo con las naciones adversarios y las
medidas de seguridad universales para las tecnologías de doble uso. Así como
Estados Unidos y la Unión Soviética lograron evadir la catástrofe nuclear a
través del diálogo, también los Estados Unidos y China pueden evitar los
resultados más catastróficos de la IA. Aunque Estados Unidos y China no tienen
el monopolio absoluto sobre la IA que los Estados Unidos y la Unión Soviética
tenían sobre las armas nucleares, sí tienen la posición de polo, con la gran
mayoría de la potencia informática del mundo, permitiendo a las dos potencias
decidir qué controles deben colocarse en los sistemas avanzados de IA.
Las
negociaciones también pueden allanar el camino para que los Estados Unidos y
China compartan tecnologías para mejorar la seguridad de la IA. En la era
nuclear, los estadounidenses compartían tecnología con la Unión Soviética
conocida como enlaces de acción permisivas, que restringían el acceso a las armas nucleares mediante el bloqueo
criptográfica de armas. El ex asesor adjunto de Seguridad Nacional Jason
Matheny ha dicho: "Con
nuestros competidores, necesitamos encontrar efectivamente el vínculo de acción
permisiva para AI. Esa es una tecnología de seguridad que usted querría que sus
competidores utilizaran al igual que usted quiere que usted mismo la utilice.
Imaginando alternativas. Las armas nucleares no son la única metáfora que los responsables de la
formulación de políticas pueden aprovechar. Investigadores de la Universidad de
Cambridge sugieren 55 analogías diferentes para la IA, argumentando que la naturaleza sin precedentes de la
tecnología requiere obtener información de campos a través de la ciencia, la
política y la ley. Por qué no extraer, por ejemplo, lecciones de campos
altamente regulados (como aviación, finanzas y
productos farmacéuticos), regulación en la intersección de la ciencia y los
materiales peligrosos (como la bioseguridad), o tecnologías emergentes en las
que los actores han negociado acuerdos internacionales con el telón de fondo de
la competencia de gran potencia (como el espacio exterior y cibernético)?
Ninguna analogía es completa, pero este es precisamente nuestro punto: Los
analistas deben reconocer las formas en que la IA no es análoga a nada que
hayamos visto antes en muchos aspectos críticos.
La corta marcha a la bomba de
hidrógeno de China
Un aspecto
de la IA que se puede controlar es el compuesto de un número
finito de los países, lo que hace que las GPUs sean lo suficientemente potentes
como para entrenar modelos avanzados de IA. Las restricciones tecnológicas
pueden limitar quién puede construir estos modelos, ya que hacerlo es muy
intensivo en recursos. Un régimen para gobernar aplicaciones peligrosas de IA
podría tener como objetivo controlar quién puede
construir modelos de vanguardia. Pero si y cuando se desarrollen esos modelos,
evitar que sean capaces de mal uso (o de difundirse) será casi imposible debido
a la naturaleza del software. Muchos modelos sólo una generación detrás de la
vanguardia están disponibles libremente para su descarga en línea. Los
responsables políticos deben extraer dos lecciones de ámbitos alternativos.
Primero,
incluso cuando las tecnologías no pueden contenerse, los comportamientos
estatales pueden verse limitados. Considere cibernético: Estados Unidos y China
no pueden detenerse mutuamente de adquirir la capacidad de llevar a cabo
ciberataques, sin embargo, en 2015 los presidentes Obama y Xi se comprometieron a no usar
operaciones cibernéticas ofensivas para robar propiedad intelectual. Estados
Unidos y China deberían emitir una declaración conjunta similar acordando
limitar el uso de la IA en operaciones de influencia.
Asimismo,
siempre existirán capacidades militares en los mares y en el espacio
ultraterrestre que representen amenazas a otros países. Los acuerdos para
limitar su uso ofrecen precedentes útiles para la gobernanza de la IA. Por
ejemplo, el Acuerdo de Incidentes entre Estados Unidos y el Sínvio del Mar
restringe los comportamientos militares, como operar en las proximidades, en
lugar de tecnologías subyacentes que podrían permitir tales comportamientos,
haciendo que el acuerdo sea más duradero a medida que las tecnologías
evolucionen. El Acuerdo de Incidentes en el Mar también requiere que los
estados notifiquen a la otra parte las maniobras peligrosas con antelación, que
podrían ser reutilizadas para la notificación de incidentes peligrosos de IA o
el inicio de grandes carreras de entrenamiento. El Tratado sobre el Espacio
Ultraterrestre es otro modelo útil. Permite a los estados desarrollar poderosas
capacidades pero limita cómo se utilizan: A los países no se les permite
posicionar armas nucleares o bases militares en el espacio. Además, los países
son considerados responsables de las actividades de sus entidades comerciales,
creando incentivos para que los gobiernos obliguen a un comportamiento
responsable del sector privado en el espacio. Si el país responsable de un
sistema catastrófice de IA fuera considerado responsable por la comunidad
internacional, entonces naciones como China que están coqueteando con la
catástrofe de IA pueden ser incentivadas a comportarse de manera diferente.
En segundo
lugar, los gobiernos deberían exigir evaluaciones de riesgo por parte de las
empresas, similares a las realizadas para la investigación biológica peligrosa.
En particular, los gobiernos deberían considerar la posibilidad de exigir a las
empresas que desarrollen sistemas avanzados de IA para uso comercial que
realicen evaluaciones rigurosas de los riesgos previos al despliegue en
instalaciones seguras. Si los científicos desarrollaran un sistema de IA que
pudiera ser responsable de un ciberataque masivo, podrían ser mantenidos a
estándares similares a los que llevan a cabo investigaciones de ganas de
funcionamiento para patógenos letales. La Convención sobre las armas biológicas
también ofrece un modelo que puede ser viable para el control internacional de
los sistemas de IA, mientras que ningún organismo mundial responsable de las
inspecciones y la aplicación de la Convención, la creación de niveles para los
laboratorios de preocupación y la separación de poderes entre los organismos
encargados de autorizar y cerrar laboratorios puede ser una medida importante.
La
gobernanza de la IA es tan espinosa como compleja. Si bien el deseo de copiar y
pegar del libro de jugadas nucleares es comprensible, no tendrá éxito en
impedir las aplicaciones más peligrosas de los modelos avanzados de IA. La
gobernanza nuclear fue una respuesta a la aniquilación nuclear de Hiroshima y
Nagasaki. La gente debe esperar que los responsables políticos actúen para
regular la IA sin necesidad de experimentar una catástrofe similar.